#

Fouille de données

Fouille de données dans les livres blancs


Fouille de données dans les ressources documentaires

  • ARTICLE INTERACTIF
  • |
  • 10 févr. 2024
  • |
  • Réf : H6040

Introduction au Big-Data — stockage, analyse et fouille des mégadonnées

L’objet de cet article est de cerner le terme Big Data ou mégadonnées ainsi que les technologies et enjeux qui lui sont associées. Dans un premier temps, les mégadonnées sont caractérisées et des usages sont évoqués pour différents domaines. Ensuite, sont présentées les différentes solutions de stockage des mégadonnées, des bases de données SQL et NoSQL à l’informatique dans le nuage.  La deuxième partie est consacrée à l’analyse et la fouille des mégadonnées, notamment sous le prisme des dernières avancées de l’apprentissage machine et de l’intelligence artificielle.

  • Article de bases documentaires
  • |
  • 10 nov. 2016
  • |
  • Réf : H7270

Analyse automatique d’opinions

Le Web est devenu une source d’information incontournable grâce à la quantité et à la diversité des contenus textuels porteurs d’opinions générés par les internautes. Ces contenus sont multiples : blogs, commentaires, forums, réseaux sociaux, etc. Devant cette abondance de données, le développement d’outils pour extraire, synthétiser et comparer les opinions exprimées sur un sujet donné devient crucial. Cet article dresse un panorama des principales approches en analyse automatique d’opinions. Trois questions fondamentales sont abordées : comment reconnaître les portions de textes qui renseignent l’utilisateur sur l’opinion qu’il recherche ? Comment évaluer la polarité des opinions qui en ressortent ? Comment présenter le résultat de manière pertinente à l’utilisateur ?

  • ARTICLE INTERACTIF
  • |
  • 10 sept. 2021
  • |
  • Réf : H7422

Datavisualisation au service de la médiation homme-données

Dans le contexte d’essor des big datas, la Datavisualisation est un outil au service de la médiation homme-données. En fournissant un accès aux données, elle constitue un outil de communication, d’explication et d’exploration de données, avec des applications dans de nombreux domaines professionnels et scientifiques. De même, avec internet, elle s’étend à d’autres sources d’informations, pas ou peu appréhendés jusqu’ici. Le défi de la datavisualisation est de fournir un cadre méthodologique et des techniques pour analyser rapidement des données hétérogènes de plus en plus nombreuses, afin de faire émerger des connaissances nouvelles et signifiantes dans le contexte d’utilisation. Cet article présente la discipline pour une compréhension des enjeux, des objectifs et des méthodes couverts par la datavisualisation.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 30 mars 2014
  • |
  • Réf : 1271

Le résumé automatique et sémantique avec Essential Mining

Le veilleur fait face aujourd’hui à des contenus de plus en plus longs. Mais le temps dont il dispose pour traiter cette masse d’information ne s’adapte pas à cette prolifération. Pouvoir résumer du contenu permet d’identifier et de sélectionner rapidement celui qui est qualifié.

Cependant, cette action ne doit pas se baser uniquement sur un modèle de calcul statistique car ce dernier ne permettra pas d’obtenir des résultats pertinents. Essential Summarizer de Mining Essential est le seul outil français qui permet de réaliser des résumés automatiques sur la base d’un traitement sémantique. Sa version gratuite permet de tester l’outil avant de passer à une version professionnelle.

Cet article décrit toutes les étapes nécessaires pour réaliser un résumé automatique pertinent en prenant en compte le domaine traité (Agriculture, Sciences, Industrie, etc.), la langue et le support de diffusion utilisé (Site Web, Document office, PDF).

Essential Summarizer permet de traiter 20 langues dans 27 domaines.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 09 déc. 2014
  • |
  • Réf : 1273

L’analyse sémantique des informations avec le moteur Noopsis

La simple mise à disposition de la connaissance, sans traitement particulier, rend cette dernière floue et inexploitable. Noopsis, outil de collecte développé par une entreprise normande, permet de collecter un grand volume d’information et interprète le sens grâce à son moteur de traitement sémantique. Il permet également de réaliser un premier traitement de l’information collectée avant que celle-ci ne soit analysée par le veilleur.

  • Comment Noopsis fonctionne-t-il ?
  • Quels types d’information peut-on collecter ?
  • À quoi peut servir ce traitement sémantique pour le veilleur ?

Cette fiche répondra à ces questions à travers des exemples.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 26 août 2014
  • |
  • Réf : 1350

Analyse de l’information documentaire structurée

Le recueil des nombreuses informations proposées par les bases de données scientifiques nécessite de s’appuyer sur des outils permettant l’analyse automatique de ces informations. La majorité des bases de données commerciales offrent un format de téléchargement qui structure l’information (même format pour toutes les références).

A partir de celui-ci, on peut combiner l’ensemble des données présentes dans les différents champs documentaires et créer des listes, des réseaux, des matrices. Cette information élaborée permettra de répondre aux questions « qui fait quoi », « où », « comment », « quand », « avec qui » et ainsi de définir de nouvelles orientations scientifiques, d’implémenter les processus d’innovation, de trouver des partenariats, de réaliser le « benchmarking » d’auteurs et d’institutions, etc.

Compte tenu du nombre croissant d’informations accessibles, cette méthode de travail est la seule qui permette d’avoir en un minimum de temps une information pertinente et stratégique sur un sujet donné.


INSCRIVEZ-VOUS AUX NEWSLETTERS GRATUITES !